Clairement, bien que les nombreux exemples de transformations sociétales sur ce site web illustrent jusqu'où peut aller l'impact de la CAA, nous n'avons abordé que quelques cas emblématiques. Imaginez comment la sécurité publique pourrait évoluer avec une identité étendue, conduisant à un monde plus sûr et plus libre en même temps, car il serait possible de contrôler des aspects importants tels que la fiabilité des personnes, sans révéler leur identité. Imaginez comment nous pourrions permettre de nouvelles formes plus agiles de coopération internationale en matière de criminalité, en confiant aux symBots la gestion des dossiers criminels en tant que tiers de confiance, et en veillant strictement à ce que seuls les responsables autorisés puissent accéder aux informations. Imaginez comment nous pourrions enrichir les chaînes d'approvisionnement complexes en donnant à chaque produit son propre symBot, encapsulant des objets connectés, interagissant avec des symBots fiscaux, des symBots de crédit carbone, des symBots personnalisés, etc. Imaginez comment les services de conseil, juridiques et autres services professionnels pourraient changer en combinant des symBots encapsulant des connaissances juridiques avec l'expertise humaine, et en intégrant des microtransactions pour élargir l'accès de Mme et M. Tout-le-monde à des conseils juridiques de haute qualité. Imaginez comment les services publics, sociaux et commerciaux pourraient évoluer en autonomisant et en guidant les utilisateurs, notamment les plus défavorisés et « perdus » face au système, en n'impliquant que les "représentants de service" appropriés lorsque les utilisateurs ne peuvent pas s'aider eux-mêmes, et en utilisant systématiquement cette expérience pour améliorer les systèmes. Et ainsi de suite. Et ainsi de suite.
Clairement, nous commençons tout juste à (vaguement) imaginer le début de ce qui est possible.
Cependant, nous ne devons pas nous tromper. Comme toute technologie à fort potentiel, elle peut être utilisée pour le meilleur et pour le pire ! Comprendre les risques est essentiel, mais inévitablement partiel et incomplet. Comme nous l'avons vu ci-dessus, il est difficile d'imaginer toutes les applications potentielles de la CAA, en particulier lorsqu'elle est combinée à d'autres technologies telles que l'IA, les blockchains et / ou l'IoT. Il est tout aussi difficile (voire plus) d'imaginer ce qui pourrait mal tourner.
Quand l'auteur a demandé à ChatGPT, voici ce qu'il a proposé : Bien que la CAA (Collaboration Augmentée Apprenante) offre un potentiel de bénéfices significatifs et de changements transformateurs, il est essentiel de prendre en compte les risques systémiques potentiels pouvant découler de son développement. Voici quelques exemples de risques systémiques liés à la mise en œuvre de la CAA:
- Sécurité et confidentialité des données : Comme la CAA repose sur l'échange et le traitement de grandes quantités de données, il existe un risque de violations de données, d'accès non autorisés et de violations de la vie privée. La protection des informations sensibles et la mise en place de mesures robustes de protection des données sont essentielles pour atténuer ces risques.
- Dépendance technologique : La CAA dépend fortement de l'infrastructure technologique, notamment des serveurs, des réseaux et des systèmes logiciels. Toute perturbation, telle que des pannes de courant, des cyberattaques ou des défaillances logicielles, pourrait entraîner des perturbations importantes dans les opérations de la CAA, affectant ainsi les processus de collaboration et d'apprentissage.
- Biais algorithmiques et discrimination : Les systèmes de la CAA utilisent des algorithmes pour prendre des décisions et fournir des recommandations. Si ces algorithmes sont biaisés ou discriminatoires, cela peut perpétuer les inégalités sociales existantes et renforcer les biais injustes, entraînant des conséquences négatives pour les groupes marginalisés.
- Inégalités et disparités d'accès : La mise en œuvre de la CAA nécessite un accès à une connectivité Internet fiable, à des dispositifs technologiques et à des compétences en littératie numérique. Un accès inégal à ces ressources peut aggraver les inégalités sociales et économiques existantes, créer une fracture numérique et exclure certains individus ou communautés de bénéficier pleinement de la CAA.
- Considérations éthiques : La CAA soulève des questions éthiques concernant le consentement des utilisateurs, la transparence, la responsabilité et le potentiel de conséquences non intentionnelles. Il est crucial de prendre en compte les préoccupations éthiques liées à la collecte de données, à la prise de décisions algorithmiques et à l'utilisation responsable de la technologie dans la CAA afin de prévenir les préjudices et de garantir la mise en place de lignes directrices éthiques.
- Perte de connexion humaine : Bien que la CAA permette la collaboration et l'apprentissage virtuels, elle peut également entraîner une réduction des interactions en personne et de la connexion humaine. Il est essentiel de trouver un équilibre entre l'utilisation de la technologie pour une collaboration efficace tout en maintenant des relations humaines significatives et des interactions sociales.
- Perturbation économique : L'adoption généralisée de la CAA peut entraîner le remplacement d'emplois et des changements sur les marchés du travail. Certains rôles ou industries peuvent devenir obsolètes, ce qui nécessite une adaptation de la main-d'œuvre et une reconversion pour assurer des transitions harmonieuses et minimiser les perturbations économiques.
- Dépendance cognitive excessive : Les systèmes de la CAA fournissent un soutien précieux et des recommandations, mais il existe un risque que les individus deviennent trop dépendants de ces systèmes, ce qui pourrait réduire les compétences de réflexion critique et les capacités de prise de décision.
Pour faire face à ces risques systémiques, il est nécessaire de planifier soigneusement, de mettre en place des stratégies de gestion proactive des risques, des lignes directrices éthiques et d'évaluer en continu afin d'assurer le développement et le déploiement responsables et inclusifs des technologies de la CAA.
Pas mal pour un début. En fait, les risques identifiés par ChatGPT sont tous plus ou moins pris en compte par la logique de la CAA telle qu'elle est mise en œuvre par SymPlace :
- S'appuyer sur une architecture Web 4.0 décentralisée (comme SymPlace avec ONE) pour la technologie de la CAA permet une protection de la « privacy-by-design » (protection de la vie privée par la conception).
- Partir de la collaboration entre les humains collaborateurs et les "pousser" avec des symBots à participer activement, au lieu de remplacer l'effort cognitif humain et la collaboration interhumaine par des algorithmes.
- Réduire la surcharge cognitive en permettant aux VPAs de s'adapter aux spécificités des utilisateurs, par exemple leur profil, leur charge de travail, leurs priorités...
- Utiliser systématiquement les MétaSymFlos pour contrôler, évaluer et gouverner les modèles de symFlo / symBots et les symCommunautés, en identifiant les biais et en les contrecarrant en adaptant la structure des groupes, en configurant l'anonymat, en "jouant" avec le timing et le rythme, en incluant des symBots dédiés, etc.
- Assurer un accès facile pour les personnes les plus défavorisées économiquement et socialement, voire les autonomiser, du moins pour SymPlace, avec un modèle économique adapté qui réduira les inégalités plutôt que de les renforcer.
- Et enfin, et peut-être surtout, renforcer les liens humains - l'idée n'est pas de passer moins de temps, mais de passer plus de temps de qualité ensemble, non seulement parce que nous sommes plus efficaces et plus performants, mais parce que toutes les interactions humaines n'ont pas la même valeur. Organiser un déjeuner avec un ami et rencontrer des personnes pour avoir une discussion profonde et significative (ou un moment très amusant et agréable, sans jugement de valeur) ne sont pas la même chose. Vérifier si votre médecin est disponible, ou répondre à un ensemble de questions de diagnostic, puis lui demander d'utiliser son cerveau sous pression pour donner un sens à nos données complexes et peut-être contradictoires, n'est pas aussi précieux que de lui donner l'occasion d'avoir une discussion chaleureuse et significative. Donner un cours à un grand auditoire ou faire passer un examen n'est pas une utilisation aussi précieuse du temps d'un enseignant que de passer du temps à interagir librement avec les étudiants pour les aider à découvrir la beauté d'un domaine qu'ils ne maîtrisent pas encore pleinement. L'objectif de la CAA est de libérer les gens de la première catégorie pour qu'ils aient du temps pour la seconde.
- …
Cependant, cette analyse (et cette réponse) est clairement insuffisante. La plupart des impacts négatifs collatéraux des nouvelles technologies sont survenus en raison de "non-connus", c'est-à-dire des risques qui n'ont émergé que lorsque la nouvelle technologie (industrielle, numérique, sociale...) est devenue suffisamment impactante et répandue. Certains de ces risques nécessiteront des compromis difficiles et des décisions qui peuvent affecter de manière significative et durable la société. C'est l'une des raisons pour lesquelles nous pensons que SymPlace devrait finalement être détenu par personne et être gouverné par tous ceux qui l'utilisent. Cette gouvernance ne sera pas dissociée de la technologie, mais en fera pleinement partie. Au fur et à mesure que de nouveaux problèmes apparaissent, les membres de la symCommunauté de SymPlace pourront initier des symFlos d'"alerte" correspondants pour en explorer la gravité, imaginer des réponses, trouver des moyens de les développer et de les tester, les déployer, les surveiller et les évaluer. Et ensuite, il sera plus facile que jamais de mener des expériences, d'essayer de nouvelles approches, de s'adapter aux circonstances et aux défis imprévus, d'explorer le potentiel de nouvelles opportunités qui tendent à être l'autre face du risque.